We propose a model-data asymptotic-preserving neural network(MD-APNN) method to solve the nonlinear gray radiative transfer equations(GRTEs). The system is challenging to be simulated with both the traditional numerical schemes and the vanilla physics-informed neural networks(PINNs) due to the multiscale characteristics. Under the framework of PINNs, we employ a micro-macro decomposition technique to construct a new asymptotic-preserving(AP) loss function, which includes the residual of the governing equations in the micro-macro coupled form, the initial and boundary conditions with additional diffusion limit information, the conservation laws, and a few labeled data. A convergence analysis is performed for the proposed method, and a number of numerical examples are presented to illustrate the efficiency of MD-APNNs, and particularly, the importance of the AP property in the neural networks for the diffusion dominating problems. The numerical results indicate that MD-APNNs lead to a better performance than APNNs or pure data-driven networks in the simulation of the nonlinear non-stationary GRTEs.
translated by 谷歌翻译
现有的智能驾驶技术通常在平衡平稳驾驶和快速避免障碍物时存在问题,尤其是当车辆处于非结构环境中,并且在紧急情况下容易发生不稳定。因此,这项研究提出了一种自主障碍控制策略,该策略可以根据注意力驾驶的想法有效地基于注意力长期记忆(注意LSTM)深度学习模型来确保车辆稳定性。首先,我们设计了自动障碍避免控制规则,以确保无人车辆的安全。其次,我们改善了自动障碍避免控制策略,并结合了特殊车辆的稳定性分析。第三,我们通过实验构建了深度学习障碍物控制,该系统的平均相对误差为15%。最后,该控制策略的稳定性和准确性得到了数值和实验验证。这项研究中提出的方法可以确保无人车辆可以在平稳行驶时成功避免障碍。
translated by 谷歌翻译
最近,通过协作推断部署深神经网络(DNN)模型,该推断将预训练的模型分为两个部分,并分别在用户设备(UE)和Edge Server上执行它们,从而变得有吸引力。但是,DNN的大型中间特征会阻碍灵活的脱钩,现有方法要么集中在单个UE方案上,要么只是在考虑所需的CPU周期的情况下定义任务,但忽略了单个DNN层的不可分割性。在本文中,我们研究了多代理协作推理方案,其中单个边缘服务器协调了多个UES的推理。我们的目标是为所有UES实现快速和节能的推断。为了实现这一目标,我们首先设计了一种基于自动编码器的轻型方法,以压缩大型中间功能。然后,我们根据DNN的推理开销定义任务,并将问题作为马尔可夫决策过程(MDP)。最后,我们提出了一种多代理混合近端策略优化(MAHPPO)算法,以解决混合动作空间的优化问题。我们对不同类型的网络进行了广泛的实验,结果表明,我们的方法可以降低56%的推理潜伏期,并节省多达72 \%的能源消耗。
translated by 谷歌翻译
In order to test whether artificial intelligence can create qualified classical poetry like humans, the author proposes a study of Chinese classical poetry generation based on a pre-trained model. This paper mainly tries to use BART and other pre training models, proposes FS2TEXT and RR2TEXT to generate metrical poetry text and even specific style poetry text, and solves the problem that the user's writing intention gradually reduces the relevance of the generated poetry text. In order to test the model's results, the authors selected ancient poets, by combining it with BART's poetic model work, developed a set of AI poetry Turing problems, it was reviewed by a group of poets and poetry writing researchers. There were more than 600 participants, and the final results showed that, high-level poetry lovers can't distinguish between AI activity and human activity, this indicates that the author's working methods are not significantly different from human activities. The model of poetry generation studied by the author generalizes works that cannot be distinguished from those of advanced scholars. The number of modern Chinese poets has reached 5 million. However, many modern Chinese poets lack language ability and skills as a result of their childhood learning. However, many modern poets have no creative inspiration, and the author's model can help them. They can look at this model when they choose words and phrases and they can write works based on the poems they already have, and they can write their own poems. The importance of poetry lies in the author's thoughts and reflections. It doesn't matter how good AI poetry is. The only thing that matters is for people to see and inspire them.
translated by 谷歌翻译
过渡到成年是许多家庭的重要生活阶段。先前的研究表明,具有智力或发展的年轻人(IDD)比同龄人面临的挑战更多。这项研究是为了探索如何使用自然语言处理(NLP)方法,尤其是无监督的机器学习,以帮助心理学家分析情绪和情感,并使用主题建模来确定年轻人IDD及其家人所拥有的常见问题和挑战。此外,将结果与从没有IDD的年轻人那里获得的结果进行了比较。研究结果表明,NLP方法对于心理学家分析情绪,进行跨案例分析并从对话数据中汇总关键主题非常有用。我们的Python代码可在https://github.com/mlaricheva/emotion_topic_modeling上找到。
translated by 谷歌翻译
会话数据在心理学中至关重要,因为它可以帮助研究人员了解个人的认知过程,情感和行为。话语标签是分析此类数据的常见策略。 NLP算法的开发使研究人员可以自动化此任务。但是,心理对话数据给NLP研究人员带来了一些挑战,包括多标签分类,大量类别和有限的可用数据。这项研究探讨了NLP方法生成的自动标签如何与人类在成年过渡的对话的背景下与人类标签相媲美。我们提出了应对心理学研究中提出的三个共同挑战的策略。我们的发现表明,具有领域适应性的深度学习方法(Roberta-Con)优于所有其他机器学习方法。我们提出的分层标签系统被证明可帮助研究人员战略性地分析对话数据。我们的Python代码和NLP模型可在https://github.com/mlaricheva/automated_labeling上获得。
translated by 谷歌翻译
当将人员重新识别(REID)模型部署到现实世界设备中时,数据漂移是一个棘手的挑战,在该设备中,数据分布与培训环境的数据分配明显不同并不断变化。为了解决这个问题,我们提出了一种名为FedStil的联合时空增量学习方法,该方法既利用终身学习和联合学习,以不断优化在许多分布式边缘客户端部署的模型。与以前的努力不同,FedStil的目标是挖掘从不同优势客户中学到的知识之间的时空相关性。具体而言,Edge客户端首先定期提取漂移数据的一般表示,以优化其本地模型。然后,从Edge客户端学习的知识将通过集中参数服务器汇总,其中知识将通过精心设计的机制进行选择性和专注于从空间和时间维度进行蒸馏。最后,蒸馏的信息空间知识将被发送回相关的边缘客户端,以进一步通过终身学习方法提高每个边缘客户端的识别精度。对五个现实世界数据集的混合物进行了广泛的实验表明,我们的方法在排名1的准确性上优于其他方法,同时将沟通成本降低62%。所有实施代码均在https://github.com/msnlab/federated-lifelong-person-reid上公开可用
translated by 谷歌翻译
多传感器融合被广泛用于自动驾驶汽车的环境感知系统。它解决了由环境变化引起的干扰,并使整个驾驶系统更安全,更可靠。在本文中,提出了一种基于纹理信息的新型可见和近红外融合方法,以增强非结构化的环境图像。它针对传统可见和近红外图像融合方法中的工件,信息丢失和噪声问题。首先,通过相对总变化(RTV)计算,可见图像(RGB)的结构信息(RGB)和近红外图像(NIR)作为融合图像的基础层;其次,建立了贝叶斯分类模型来计算噪声重量和可见图像中的噪声信息和噪声信息通过关节双侧滤波器自适应过滤;最后,融合图像是通过颜色空间转换获得的。实验结果表明,所提出的算法可以保留光谱特性和无伪影和颜色失真的可见和近红外图像的独特信息,并且具有良好的鲁棒性以及保留独特的质地。
translated by 谷歌翻译
可靠的结肠镜检查图像自动分类对于评估结肠病变阶段和制定适当的治疗计划具有重要意义。但是,由于亮度不平,位置可变性,类间的相似性和类内部差异,它影响了分类精度,因此具有挑战性。为了解决上述问题,我们在本研究中提出了一个基于傅立叶的频率复杂网络(FFCNET),用于结肠疾病分类。具体而言,FFCNET是一个新颖的复杂网络,可以使复杂的卷积网络与频率学习的结合,以克服由实际卷积操作引起的相位信息丢失。同样,我们的傅立叶变换会将图像的平均亮度传递到频谱中的一个点(DC组件)中,从而通过解耦图像含量和亮度来减轻亮度不均匀的影响。此外,FFCNET中的图像贴片争夺模块会生成随机的局部光谱块,使网络能够学习长期和局部疾病特定特征,并提高硬样品的判别能力。我们在具有2568个结肠镜检查图像的内部数据集上评估了所提出的FFCNET,这表明我们的方法实现了高性能的表现优于先前的最新方法,其准确性为86:35%,准确性高4.46%,高4.46%。具有代码的项目页面可在https://github.com/soleilssss/ffcnet上找到。
translated by 谷歌翻译
归因图群集是图形分析字段中最重要的任务之一,其目的是将具有相似表示的节点分组到没有手动指导的情况下。基于图形对比度学习的最新研究在处理图形结构数据方面取得了令人印象深刻的结果。但是,现有的基于图形学习的方法1)不要直接解决聚类任务,因为表示和聚类过程是分开的; 2)过多地取决于图数据扩展,这极大地限制了对比度学习的能力; 3)忽略子空间聚类的对比度消息。为了适应上述问题,我们提出了一个通用框架,称为双重对比归因于图形聚类网络(DCAGC)。在DCAGC中,通过利用邻里对比模块,将最大化邻居节点的相似性,并提高节点表示的质量。同时,对比度自我表达模块是通过在自我表达层重建之前和之后最小化节点表示形式来构建的,以获得用于光谱群集的区分性自我表达矩阵。 DCAGC的所有模块均在统一框架中训练和优化,因此学习的节点表示包含面向群集的消息。与16种最先进的聚类方法相比,四个属性图数据集的大量实验结果显示了DCAGC的优势。本文的代码可在https://github.com/wangtong627/dual-contrastive-attributed-graph-cluster-clustering-network上获得。
translated by 谷歌翻译